Motion prediction systems aim to capture the future behavior of traffic scenarios enabling autonomous vehicles to perform safe and efficient planning. The evolution of these scenarios is highly uncertain and depends on the interactions of agents with static and dynamic objects in the scene. GNN-based approaches have recently gained attention as they are well suited to naturally model these interactions. However, one of the main challenges that remains unexplored is how to address the complexity and opacity of these models in order to deal with the transparency requirements for autonomous driving systems, which includes aspects such as interpretability and explainability. In this work, we aim to improve the explainability of motion prediction systems by using different approaches. First, we propose a new Explainable Heterogeneous Graph-based Policy (XHGP) model based on an heterograph representation of the traffic scene and lane-graph traversals, which learns interaction behaviors using object-level and type-level attention. This learned attention provides information about the most important agents and interactions in the scene. Second, we explore this same idea with the explanations provided by GNNExplainer. Third, we apply counterfactual reasoning to provide explanations of selected individual scenarios by exploring the sensitivity of the trained model to changes made to the input data, i.e., masking some elements of the scene, modifying trajectories, and adding or removing dynamic agents. The explainability analysis provided in this paper is a first step towards more transparent and reliable motion prediction systems, important from the perspective of the user, developers and regulatory agencies. The code to reproduce this work is publicly available at https://github.com/sancarlim/Explainable-MP/tree/v1.1.
translated by 谷歌翻译
缺乏足够大的开放医疗数据库是AI驱动的医疗保健中最大的挑战之一。使用生成对抗网络(GAN)创建的合成数据似乎是减轻隐私政策问题的好解决方案。另一种类型的治疗是在多个医疗机构之间进行分散方案,而无需交换本地数据样本。在本文中,我们探讨了集中式和分散的设置中的无条件和有条件的gan。集中式设置模仿了对大型但高度不平衡的皮肤病变数据集的研究,而分散的人则通过三个机构模拟了更现实的医院情况。我们评估了模型的性能,从忠诚度,多样性,训练速度和对生成合成数据进行培训的分类器的预测能力。此外,我们通过探索潜在空间和嵌入投影的解释性。计算出的真实图像及其在潜在空间中的投影之间的距离证明了训练有素的gan的真实性和概括,这是此类应用程序中的主要关注点之一。用于进行研究的开源代码可在\ url {https://github.com/aidse/stylegan2-ada-pytorch}上公开获得。
translated by 谷歌翻译
现在,新的医疗数据集对公众开放,可以进行更好,更广泛的研究。尽管以最大的谨慎准备,但新数据集可能仍然是影响学习过程的虚假相关性的来源。此外,数据收集通常不够大,而且通常是不平衡的。减轻数据不平衡的一种方法是使用生成对抗网络(GAN)使用数据扩展来扩展具有高质量图像的数据集。 GAN通常在与目标数据相同的偏置数据集上进行训练,从而导致更多的偏差实例。这项工作探索了无条件和条件剂量,以比较其偏差遗传以及合成数据如何影响模型。我们提供了大量的手动数据注释,可能在著名的ISIC数据集上具有皮肤病变的偏见。此外,我们研究了对实际和合成数据训练的分类模型,并具有反事实偏置解释。我们的实验表明,GAN遗传了偏见,有时甚至会放大它们,从而导致更强的虚假相关性。手动数据注释和合成图像可公开可重复可再现科学研究。
translated by 谷歌翻译
本文介绍了我们使用汉堡手语注释系统(HAMNOSYS)在自动处理手语语料库的自动处理领域的最新发展。我们设计了一种自动化工具,可以将HAMNOSYS注释转换为数值标签,以定义身体和手部位置的初始特征。我们提出的数值多标记大大简化了Hamnosys注释的结构,而没有明显的光泽含义丧失。这些数值多标记可以可能用于喂养机器学习模型,这将加快基于视觉的手语识别的发展。此外,该工具可以协助专家在注释过程中,以帮助识别语义错误。代码和示例注释可在https://github.com/hearai/parse-hamnosys上公开获得。
translated by 谷歌翻译
详细研究了图像上微生物对象的密度图(DM)方法的统计特性。DM由U $^2 $ -NET给出。使用了深层神经网络的两种统计方法:引导程序和蒙特卡洛(MC)辍学。对DM预测的不确定性的详细分析导致对DM模型的缺陷有了更深入的了解。根据我们的调查,我们提出了网络中的自称模块。改进的网络模型,称为\ textIt {自称密度映射}(SNDM),可以单独校正其输出密度映射,以准确预测图像中对象的总数。SNDM体系结构优于原始模型。此外,两个统计框架(Bootstrap和MC脱落)都对SNDM均具有一致的统计结果,在原始模型中未观察到。SNDM效率与检测器碱模型相当,例如更快和级联R-CNN检测器。
translated by 谷歌翻译
我们介绍了一种有效的策略来产生可用于培训深层学习模型的培养皿的微生物图像的合成数据集。开发的发电机采用传统的计算机视觉算法以及用于数据增强的神经风格传输方法。我们表明该方法能够合成可用于培训能够定位,分割和分类五种不同微生物物种的神经网络模型的现实看起来的数据集。我们的方法需要更少的资源来获取有用的数据集,而不是收集和标记具有注释的整个大型真实图像。我们表明,只有100个真实图像开始,我们可以生成数据以培训一个探测器,该探测器实现了相同的探测器,而是在真实的,几十次更大的数据集上培训。我们证明了微生物检测和分割方法的有用性,但我们预计它是一般而灵活的,也可以适用于其他科学和工业领域来检测各种物体。
translated by 谷歌翻译
本文介绍了有关开发的原型的研究,以服务公共政策设计的定量研究。政治学的这种子学科着重于确定参与者,之间的关系以及在健康,环境,经济和其他政策方面可以使用的工具。我们的系统旨在自动化收集法律文件,用机构语法注释它们的过程,并使用超图来分析关键实体之间的相互关系。我们的系统经过了《联合国教科文组织公约》的保护,以保护2003年的无形文化遗产,这是一份法律文件,该文件规定了确保文化遗产的国际关系的基本方面。
translated by 谷歌翻译
通过融合单个模式(例如文本,图像或音频)来创建有意义的表示形式是多模式学习的核心概念。尽管已经证明了几种用于构建多模式表示的技术,但尚未进行比较。因此,在给定情况下,可以预期哪种技术可以产生最佳结果,以及在选择这种技术时应考虑哪些因素。本文探讨了构建多模式数据表示的最常见技术 - 晚期融合,早期融合和草图,并在分类任务中进行比较。实验是在三个数据集上进行的:Amazon评论,Movielens25M和Movielens1M数据集。通常,我们的结果证实,多模式表示能够在亚马逊评论上将单峰模型的性能从0.919的精度提高到0.969,而Movielens25m上的AUC的表现为0.907至0.918。但是,两个Movielens数据集的实验表明有意义的输入数据对给定任务的重要性。在本文中,我们表明,构建多模式表示技术的选择对于获得最高模型的性能至关重要,这与适当的模式组合有关。这种选择依赖于:每种形态对分析的机器学习(ML)问题的影响; ML任务的类型;训练和预测阶段时的内存约束。
translated by 谷歌翻译
本文介绍了关于剧透筛选的研究。在这种用例中,我们描述了微调和组织基于文本的模型任务的方法,并具有最新的深度学习成果和技术来解释模型的结果。到目前为止,文献中的剧透研究很少描述。我们在带有带注释的扰流板(ROC AUC以上的TV Tropes Point DataSet上超过81 \%的Roc Auc以上的Roc Auc上超过81 \%)的转移学习方法和不同的最新变压器架构。我们还收集了数据并使用细粒度注释组装了新数据集。为此,我们采用了可解释技术和措施来评估模型的可靠性并解释其结果。
translated by 谷歌翻译